Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Also, hallo zusammen. Wie ich gestern schon rumgeschrieben habe, auch wenn ich heute hier stehe, wird es keine Übung geben, sondern eine Vorlesung.
Da Professor Huber die Woche nicht da ist und wir brauchen noch eine weitere Vorlesung, um die nächste Übung durchbringen zu können.
Thema heute im wesentlichen Fortführung des Kanalkodierungstheorien.
Je nachdem wie schnell ich bin kann es sein, dass wir tatsächlich bis zum Theorie kommen.
Ansonsten wird es sich erstmal um die Fehlerexponenten drehen.
Dazu fange ich ein bisschen zurück an und wiederhole nochmal die wichtigsten Punkte,
die eben in den letzten ein, zwei Vorlesungen denke ich drangekommen sein sollten.
Und zwar ist es erstmal das grundlegende Problem.
Ja, das ganze Kapitel dreht sich im Prinzip natürlich mit der Frage nach dem Beweis des Kanalkodierungstheorien.
Dieses spezielle Ding hier, bis wir dahin kommen, sind allerdings ein bisschen andere Zielsetzungen.
Hier geht es nämlich erstmal darum, Fehlerraten abschätzen zu können.
Das heißt, angenommen wir haben einen bestimmten Code gegeben, wir haben einen bestimmten Kanal gegeben,
charakterisiert durch die Übergangswahrscheinlichkeiten.
Wie gut können wir dann performen, wie viele Fehler können wir machen, wie viele Fehler können wir korrigieren.
Und um das Ganze einschätzen zu können, gehen wir von so genannter Maximum-Like-Liode-Dekodierung aus.
Was bedeutet das? Wir haben Codewort, das besteht aus N-Symbolen.
Das heißt, man kann dieses Codewort mit N-Symbolen als einen Punkt im N-dimensionalen Raum auffassen.
Zwei Codewörter, also dann zwei Punkte, haben offensichtlich einen bestimmten Abstand voneinander.
Also sagen wir mal, das hier ist das eine Codewort, das hier ist das andere Codewort, dann haben die halt hier den entsprechenden Abstand zwischen sich.
Und wie wird dann dekodiert? Ganz einfach, die möglichen Empfangswörter liegen alle ebenfalls in diesem Raum
und man zieht einfach mitten rein die mittelsenkrechte oder im N-dimensionalen Raum dann die mittlere Hyperplane.
Und ist man näher zum einen Codewort, entscheidet man sich für das eine Codewort.
Ist man näher zum anderen Codewort, entscheidet man sich für das andere Codewort.
Und um dann die Fehlerwahrscheinlichkeit auszurechnen, nimmt man halt an, man hat dieses Codewort gesendet
und dann muss ich halt über alle möglichen Empfangswörter aufsummieren, bei denen ich mich fürs andere Codewort entscheiden würde.
Gut, und das muss ich halt dann für jedes Codewort einzeln machen.
Zur Vereinfachung geht man hier in der Regel, zur Vereinfachung fängt man in der Regel erstmal nur bei zwei Codewörtern an.
Da ist das Ganze ganz trivial und geht dann Schritt für Schritt weiter hoch.
Für zwei Codewörter habt ihr dann die sogenannte Buttercharierschranke kennengelernt,
die sich einfach im Prinzip, das Besondere daran ist halt eben, dass sie sich schlicht und einfach aus den Kenntnissen des Kanals,
das heißt aus den Übergangswahrscheinlichkeiten ableiten lässt und damit im Prinzip keine Kenntnis über den Code an sich notwendig ist.
Das Ganze kann man dann natürlich noch weiter vereinfachen, indem man eben einen diskreten, gedächtnislosen Kanal annimmt.
Und dann kann man, ja, dann kann man es eben auf mehrere Codewörter verallgemeinern.
Und das Prinzip, das wir hier hatten, war im Prinzip genau das gleiche wieder.
Jetzt wird halt dieser N-dimensionale Raum nicht nur in zwei Gebiete unterteilt, sondern in so viele Gebiete wie wir Codewörter haben.
Die Übergangswahrscheinlichkeit von hier nach hier hat jetzt allerdings das Problem, dass wir nicht mehr einfach nur die Mittelsinkrechte haben,
sondern wir haben halt auch noch die anderen Mittelsinkrechten, die zwischen diesen zwei Gebieten und zwischen den restlichen Gebieten liegen, die hier mit ins Spiel kommen.
Das bedeutet, an dieser Stelle wäre diese Aufsummation hier deutlich komplizierter exakt zu berechnen.
Womit man sich in dem Fall dann behilft, ist die sogenannte Union-Bound. Das bedeutet, was macht man dann einfach?
Angenommen, man sendet dieses Codewort, man nimmt weiterhin nur die Mittelsinkrechte vom anderen Codewort, schiebt die hier durch und summiert über alles, was hier da drinnen liegt auf.
Dann macht man das Ganze mit dem zweiten Codewort. Hier ist die Mittelsinkrechte und summiert alles, was da drinnen liegt auf.
Das Problem dabei natürlich, man sieht es ganz einfach, sehr viele Teile werden in dem Fall doppelt gezählt.
Doppelt gezählt bedeutet, wir haben eine schlechtere Abschätzung, in dem Fall eben eine obere Schranke.
Kann man allerdings in dem Fall nicht ändern, weil ganz einfach bei einem tatsächlichen Code, geben wir mal zum Beispiel aus,
der Länge 1000, also dann hätten wir zwei hoch tausend mögliche Empfangswörter.
Und dass das nicht mehr zu berechnen ist, kann sich denke ich jeder ganz einfach vorstellen.
Genau, das wird dann eben mit der Union-Bound hier gemacht und dann kommt auch hier die entsprechende Buttercharierschranke wieder dazu.
Hier ist jetzt eben neu dazugekommen diese Aufsummierung über alle anderen Codewörter.
Bisher haben wir hier tatsächlich eine Wortfehlerrate für ein bestimmtes Codewort.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:22:25 Min
Aufnahmedatum
2015-06-03
Hochgeladen am
2015-06-03 10:43:12
Sprache
de-DE
Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.